stochastischer Kern

stochastischer Kern
стохастичное ядро

Немецко-русский математический словарь. 2013.

Игры ⚽ Поможем написать реферат

Смотреть что такое "stochastischer Kern" в других словарях:

  • Stochastischer Kern — In der Wahrscheinlichkeitstheorie beschreiben Übergangswahrscheinlichkeiten die Wahrscheinlichkeiten, vom Zustand i (in einer Menge Ω) zu einem aktuellen Beobachtungszeitpunkt in bestimmte andere Zustände j (in einer Menge Ω ) überzugehen. Sie… …   Deutsch Wikipedia

  • Markov-Kern — In der Wahrscheinlichkeitstheorie beschreiben Übergangswahrscheinlichkeiten die Wahrscheinlichkeiten, vom Zustand i (in einer Menge Ω) zu einem aktuellen Beobachtungszeitpunkt in bestimmte andere Zustände j (in einer Menge Ω ) überzugehen. Sie… …   Deutsch Wikipedia

  • Markow-Kern — In der Wahrscheinlichkeitstheorie beschreiben Übergangswahrscheinlichkeiten die Wahrscheinlichkeiten, vom Zustand i (in einer Menge Ω) zu einem aktuellen Beobachtungszeitpunkt in bestimmte andere Zustände j (in einer Menge Ω ) überzugehen. Sie… …   Deutsch Wikipedia

  • Übergangswahrscheinlichkeit — In der Wahrscheinlichkeitstheorie beschreiben Übergangswahrscheinlichkeiten die Wahrscheinlichkeiten, vom Zustand i (in einer Menge Ω) zu einem aktuellen Beobachtungszeitpunkt in bestimmte andere Zustände j (in einer Menge Ω ) überzugehen.… …   Deutsch Wikipedia

  • Bedingte Erwartung — Bedingte Erwartungswerte und bedingte Wahrscheinlichkeiten bezüglich einer Teil σ Algebra stellen eine Verallgemeinerung von bedingten Wahrscheinlichkeiten dar. Sie werden unter anderem bei der Formulierung von Martingalen verwendet.… …   Deutsch Wikipedia

  • Stochastische Matrix — In der Wahrscheinlichkeitstheorie beschreiben Übergangswahrscheinlichkeiten die Wahrscheinlichkeiten, vom Zustand i (in einer Menge Ω) zu einem aktuellen Beobachtungszeitpunkt in bestimmte andere Zustände j (in einer Menge Ω ) überzugehen. Sie… …   Deutsch Wikipedia

  • Markow-Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette, Markof Kette) ist ein spezieller stochastischer Prozess. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Harris-Ketten — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markoff-Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markoffkette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markov-Chain — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia


Поделиться ссылкой на выделенное

Прямая ссылка:
Нажмите правой клавишей мыши и выберите «Копировать ссылку»